Aumenta la preocupación a medida que los vídeos generados por IA difunden odio y racismo en línea: "No hay reglas de seguridad"
Al principio parece un peculiar vídeo generado por inteligencia artificial para hacer reír a la gente.
En ella, un Bigfoot peludo que viste un sombrero de vaquero y un chaleco blasonado con la bandera estadounidense se sienta detrás del volante de una camioneta.
"Hoy vamos al desfile LGBT", dice la criatura simiesca entre risas. "Te va a encantar".
Las cosas luego toman un giro violento y perturbador cuando Bigfoot conduce a través de una multitud de personas que gritan, algunas de ellas sosteniendo banderas de arcoíris.
El clip publicado en junio en la página de TikTok AmericanBigfoot ha obtenido más de 360.000 visitas y cientos de comentarios, la mayoría de ellos aplaudiendo el vídeo.
En los últimos meses, contenido similar generado por IA ha inundado las plataformas de redes sociales, promoviendo abiertamente la violencia y difundiendo el odio contra miembros de grupos LGBTQ+, judíos, musulmanes y otras minorías.
La historia continúa debajo del anuncio.
Si bien el origen de la mayoría de esos videos no está claro, su difusión en las redes sociales está provocando indignación y preocupación entre los expertos y defensores que dicen que las regulaciones canadienses no pueden seguir el ritmo del contenido de odio generado por IA ni abordar adecuadamente los riesgos que representa para la seguridad pública.
El primer ministro de Saskatchewan buscará a los creadores de 'deepfakes' de IA de él y Carney
Egale Canada, una organización de defensa de los derechos LGBTQ+, dice que la comunidad está preocupada por el aumento de contenido de desinformación transfóbica y homofóbica en las redes sociales.
“Estas herramientas de IA se están utilizando como armas para deshumanizar y desacreditar a las personas trans y de género diverso, y las leyes de seguridad digital existentes no están abordando la escala y la velocidad de esta nueva amenaza”, dijo la directora ejecutiva Helen Kennedy en un comunicado.
La rápida evolución de la tecnología ha proporcionado a los actores maliciosos una herramienta poderosa para difundir desinformación y odio, y las personas transgénero son el blanco de ataques desproporcionados, dijo Kennedy.
La historia continúa debajo del anuncio.
La comunidad LGBTQ+ no es el único objetivo, afirmó Evan Balgord, director ejecutivo de la Red Canadiense Antiodio. El contenido islamófobo, antisemita y antisudasiático, creado con herramientas de inteligencia artificial generativa, también circula ampliamente en redes sociales, añadió.
"Cuando se crea un ambiente en el que se celebra mucho la violencia hacia esos grupos, aumenta la probabilidad de que ocurra en persona o en la calle", advirtió Balgord en una entrevista telefónica.
Un estudio revela que ChatGPT respondió de forma peligrosa más de la mitad de las veces a los usuarios que buscaban asesoramiento.
Las leyes de seguridad digital de Canadá ya estaban rezagadas y los avances en inteligencia artificial han complicado aún más las cosas, afirmó.
Reciba las principales noticias del día, titulares políticos, económicos y de actualidad, entregados en su bandeja de entrada una vez al día.
La historia continúa debajo del anuncio.
Los proyectos de ley destinados a abordar el contenido dañino en línea y establecer un marco regulatorio para la IA murieron cuando el Parlamento fue prorrogado en enero, dijo Andrea Slane, profesora de estudios legales en la Universidad Tecnológica de Ontario que ha realizado una amplia investigación sobre seguridad en línea.
Slane dijo que el gobierno necesita volver a analizar la legislación sobre daños en línea y volver a presentar el proyecto de ley "con urgencia".
“Creo que Canadá está en una situación en la que realmente necesita actuar”, afirmó.
El ministro de Justicia, Sean Fraser, declaró a The Canadian Press en junio que el gobierno federal revisará la Ley de Daños en Línea, pero aún no ha decidido si la reescribirá o simplemente la reintroducirá. Entre otras cosas, el proyecto de ley busca responsabilizar a las plataformas de redes sociales de reducir la exposición a contenido dañino.
Un portavoz del recién creado Ministerio de Inteligencia Artificial e Innovación Digital dijo que el gobierno está tomando en serio el tema del contenido de odio generado por IA, especialmente cuando se dirige a grupos minoritarios vulnerables.
Entrenador de fútbol femenino de Alberta acusado de crear pornografía infantil con IA
Sofia Ouslis dijo que las leyes existentes brindan “protecciones importantes”, pero admitió que no tenían como objetivo abordar la amenaza de la IA generativa cuando fueron diseñadas.
La historia continúa debajo del anuncio.
“Es fundamental comprender cómo se utilizan y se abusa de las herramientas de IA, y cómo podemos reforzar las barreras de seguridad”, declaró. “Ese trabajo continúa”.
El trabajo implica revisar los marcos existentes, supervisar las decisiones judiciales y escuchar atentamente a expertos legales y tecnológicos, afirmó Ouslis. Añadió que el gobierno del primer ministro Mark Carney también se ha comprometido a tipificar como delito la distribución de deepfakes sexuales no consentidos.
"En este espacio de rápida evolución, creemos que es mejor acertar con la regulación que actuar demasiado rápido y equivocarse", dijo, señalando que Ottawa busca aprender de la Unión Europea y el Reino Unido.
Slane dijo que la Unión Europea ha estado por delante de otros en la regulación de la IA y en garantizar la seguridad digital, pero a pesar de estar a la "vanguardia", existe la sensación de que es necesario hacer más.
Los expertos dicen que regular el contenido distribuido por los gigantes de las redes sociales es particularmente difícil porque esas empresas no son canadienses.
'Baño de sangre de cuello blanco': ¿La IA destruirá el trabajo de oficina de nivel básico?
Otro factor que complica la situación es el clima político actual al sur de la frontera, donde las empresas tecnológicas estadounidenses están viendo reducidas las regulaciones y restricciones, lo que las hace “más poderosas y las hace sentir menos responsables”, dijo Slane.
La historia continúa debajo del anuncio.
Si bien la IA generativa existe desde hace algunos años, en los últimos meses se ha producido un gran avance que facilita la producción de vídeos de buena calidad mediante herramientas que, en su mayoría, están disponibles de forma gratuita o a un precio muy bajo, dijo Peter Lewis, presidente de investigación de Canadá en inteligencia artificial confiable.
"Debo decir que es realmente accesible para casi cualquier persona con un poco de conocimiento técnico y acceso a las herramientas adecuadas en este momento", dijo.
Lewis, quien también es profesor asistente en la Universidad Tecnológica de Ontario, dijo que los grandes modelos de lenguaje como ChatGPT han implementado medidas de seguridad en un esfuerzo por filtrar contenido dañino o ilegal.
Pero es necesario hacer más en el ámbito del vídeo para crear esas barreras de protección, afirmó.
“Tú y yo podríamos ver el video y probablemente horrorizarnos”, dijo, y agregó: “no está claro necesariamente que el sistema de IA tenga la capacidad de reflexionar sobre lo que ha creado”.
Vídeo viral de parapente chino probablemente manipulado con imágenes de IA
Lewis dijo que si bien no es un experto legal, cree que las leyes existentes pueden usarse para combatir la glorificación en línea del odio y la violencia en los videos de AmericanBigfoot.
La historia continúa debajo del anuncio.
Pero añadió que el rápido desarrollo de la IA generativa y la amplia disponibilidad de nuevas herramientas “requieren nuevas soluciones tecnológicas” y colaboración entre gobiernos, consumidores, defensores, plataformas sociales y desarrolladores de aplicaciones de IA para abordar el problema.
“Si se suben estas cosas… necesitamos mecanismos de señalización robustos y con capacidad de respuesta para poder sacarlas de internet lo antes posible”, dijo.
Lewis dijo que usar herramientas de inteligencia artificial para detectar y marcar dichos videos ayuda, pero no resolverá el problema.